DeepMind 揭秘 WaveNet 提速一千倍、进驻 Google Assistant 背后的故事
AI 科技评论按:DeepMind 提出的 WaveNet 是目前顶级的语音生成模型,论文(https://arxiv.org/pdf/1609.03499.pdf)最初于2016年9月发表,AI 科技评论也立即跟进报道 DeepMind发布原始音频波形深度生成模型WaveNet 。WaveNet 抛弃了以往通过声学模型拼接语音音素的做法,完全通过深度神经网络生成原始音频波形,并且大幅提高了语音生成质量。
今年10月,我们也报道过 WaveNet正式商用:效率提高1000倍,WaveNet 仅一年时间就走出实验室,在 Google Assistant 中落地。在庆贺深度学习又一次完全颠覆传统做法的同时,大家想必也会好奇,到底 DeepMind 做了哪些改进才得以实现这样数量级的效率提升呢?DeepMind 自己最近就发布了介绍商业化改进后的 WaveNet 的论文,并撰写了一篇博文通俗地介绍了其中的改进点。AI 科技评论把这篇博文翻译如下。
自 DeepMind 在2016年发表WaveNet论文后,这一顶级表现的语音生成模型已经于今年10月开始用在 Google Assistant 中,为全球的用户生成逼真的日语和美国英语语音。现在这个用于生产环境的模型称作“并行WaveNet”,它的运行速度要比最初发布的模型快一千多倍,而且生成的语音质量也更高。
在近期的论文(https://deepmind.com/documents/131/Distilling_WaveNet.pdf )中,DeepMind的研究人员们就介绍了新模型的一些细节;以及为了让这个系统能在大规模并行化的计算环境中运行,DeepMind还开发了一个新技术“概率密度蒸馏”。
WaveNet的演进史
最初版本的WaveNet在生成语音时用了很激进的连接方式,每次生成一个采样点,而且每个新生成的采样点都需要把前一个采样点作为输入(条件生成)。虽然这种做法能够生成高质量的音频,每秒最高也能生成2万4千个采样点,但这种顺序生成的方式对于生产环境来说还是太慢了。
最初版本的模型中,生成每个新的样本都需要把前一个生成的样本作为条件
为了解决这个问题,DeepMind的研究人员们认为他们需要一种新的方案,它应当能一次生成一个长序列中的所有采样点,而且没有生成质量的损失。他们的想到的办法叫做 probability density distillation,“概率密度蒸馏”。它的做法是,用一个完全训练好的 WaveNet 模型教另一个“学生”网络如何推理;这个学生网络更小、并行度更高,从而也就更适合运行在现代计算硬件上。这个学生网络的架构是一个规模不大的卷积神经网络的拓展,跟原来的WaveNet很相似,但它有一点根本性的不同,就是生成新的采样点时不需要依赖任何之间生成的采样点。这也就意味着,语音生成时可以把第一个单词、最后一个单词、以及所有当中的单词全部同时生成出来,就像下面的动图里这样。
新的WaveNet把白噪音作为输入,然后一次同步生成所有的输出采样点。
训练的时候,学生网络是从一个随机状态开始的。它的输入是随机白噪声,要训练它做的任务就是产生连续的音频波形作为输出。学生网络生成的输出会被交给训练过的WaveNet模型,它会给每个采样点打分,作为提供给学生网络的信号,让它了解它的输出和理想输出之间的差距。随着训练过程进行,学生网络就可以根据反向传播不断调节、更新,从而学会产生理想的输出。从另一个角度说,“老师”网络和“学生”网络都会给每一个音频采样点的取值输出一个概率分布,然后训练的目标就是让老师的分布和学生的分布之间的KL距离最小化。
这样的训练过程和生成式对抗性网络(GANs)的设定有不少相似之处,学生网络就像是GANs中的生成器,老师网络就像是鉴别器。不过与GANs不同的是,学生的目标并不是像GANs中那样“骗过”老师,而是与老师合作,尝试学习、达到老师的表现水平。
虽然这种训练技巧有不错的表现,DeepMind的研究人员们还是需要增加几个额外的损失函数,引导学生更好地向理想的行为前进。具体来说,他们增加了一个感知损失来避免模型产生糟糕的发音,增加了一个对比度损失来进一步减少噪声,以及一个能量损失来让网络的音频输出与人类语音的能量相匹配。能量损失的作用是,如果没有它的话,模型的音量很小,更像窃窃私语而不是朗声说话。
应用了以上所有这些方法之后,DeepMind就得以让训练出的并行WaveNet达到与最初的WaveNet同等的语音质量,人类测试者听过之后的平均意见打分(MOS,5分为满分)结果如下。值得一提的是,真正的人类语音也只有4.667的MOS分数。
当然,概率密度蒸馏仅仅是让WaveNet达到生产化系统的速度和质量的众多必须手段之一。为了把并行WaveNet集成到Goolge Assistant的服务流水线中,DeepMind的技术应用团队和谷歌语音团队也同样在工程方面付出了大量努力。也正是靠着这样的紧密协作,最初是基础性研究的技术只花了12个月多一点点的时间就成为了谷歌规模、能够服务全球用户的正式产品。
并行WaveNet论文地址:https://deepmind.com/documents/131/Distilling_WaveNet.pdf
via DeepMind Blog,AI 科技评论编译
————— AI 科技评论招人啦! —————
我们诚招学术编辑 N 枚(全职,坐标北京)、新媒体运营 N 枚(全职,坐标深圳)、学术兼职 N 枚。
详情请参见AI科技评论招人啦,新媒体运营、学术编辑、学术兼职虚位以待!
欢迎发送简历到 guoyixin@leiphone.com
———— GAIR 智能驾驶峰会 2018 ————
10年前的DARPA挑战赛是催生自动驾驶商业化的里程碑,10年后的硅谷和匹兹堡成为全球自动驾驶研发和部署最激进的两个大本营。除了两地的斯坦福大学和卡耐基梅隆大学,Google、Uber、Tesla等大公司以及传统车企的超前研发也为美国的自动驾驶行业培养了大量人才。
而在地球的另一端,中国已经是最大的汽车消费市场,市场规模、特色的道路和法规环境让中国市场成为一个独特且极具吸引力的市场。即便在美国,华人势力也是自动驾驶创新领域一支重要的主力军。
2018年1月16日,雷锋网将在旧金山湾区举办GAIR硅谷智能驾驶峰会,我们希望汇集中美两地最强的自动驾驶研发力量,与学界、互联网大公司、汽车行业以及新技术公司一起来一场自动驾驶领域的大party。
详细了解点击文末阅读原文
————————————————————